#AI 平台
【CES 2026】這不是顯示卡,是一座 2噸重的AI工廠
美東時間1月5日周一,輝達在CES展會推出新一代Rubin AI平台,標誌著其在人工智慧(AI)晶片領域保持年度更新節奏。黃仁勳在展會上宣佈Vera Rubin已全面投產,該平台重量近2噸,通過六款新晶片的整合設計,在推理成本和訓練效率上實現大幅躍升,實現每秒千億等級的 AI 運算,堪稱一座真正的人工智慧工廠。輝達還宣佈開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1。該模型旨在打造能在意外情況下"思考"解決方案的車輛,採用 100 億參數架構,使用視訊輸入生成軌跡和推理過程。黃仁勳稱,首款搭載輝達技術的汽車將第一季度在美上路,第二季度在歐洲上路,下半年在亞洲上路。輝達還發佈了多個開源模型、資料和工具,如用於代理AI的輝達Nemotron家族、用於物理AI的Cosmos平台、用於機器人的輝達Isaac GR00T以及用於生物醫學的輝達Clara。01 輝達發佈新一代Rubin平台,性能提升5倍,已全面投產擬下半年發貨美東時間5日周一,輝達CEO黃仁勳在拉斯維加斯表示,六款Rubin晶片已從合作製造方處回廠,並已通過部分關鍵測試,正按計畫推進。他指出"AI競賽已經開始,所有人都在努力達到下一個水平"。輝達強調,基於Rubin的系統運行成本將低於Blackwell版本,因為它們用更少元件即可實現相同結果。微軟和其他大型雲端運算提供商將成為下半年首批部署新硬體的客戶。微軟的下一代Fairwater AI超級工廠將配備輝達Vera Rubin NVL72機架級系統,規模可擴展至數十萬顆輝達Vera Rubin超級晶片。CoreWeave也將是首批提供Rubin系統的供應商之一。該平台的推出正值華爾街部分人士擔憂輝達面臨競爭加劇,並懷疑AI領域的支出能否維持當前速度。但輝達保持長期看漲預測,認為總市場規模可達數兆美元。性能提升5倍,推理token生成成本降低至多10倍據輝達公告,Rubin平台的訓練性能是前代Blackwell的3.5倍,運行AI軟體的性能則提升5倍。與Blackwell平台相比,Rubin可將推理token生成成本降低至多10倍,訓練混合專家模型(MoE)所需GPU數量減少4倍。新平台配備的Vera CPU擁有88個核心,性能是其替代產品的兩倍。這款CPU專為代理推理設計,是大規模AI工廠中能效最高的處理器,採用88個定製Olympus核心、完整Armv9.2相容性和超快NVLink-C2C連接。Rubin GPU配備第三代Transformer引擎,具備硬體加速自適應壓縮功能,可提供50 petaflops的NVFP4計算能力用於AI推理。每個GPU提供3.6TB/s的頻寬,而Vera Rubin NVL72機架則提供260TB/s頻寬。晶片測試進展順利,廣泛生態系統支援黃仁勳披露,全部六款Rubin晶片已從製造合作夥伴處返回,並已通過顯示其可按計畫部署的關鍵測試。這一表態表明輝達正維持其作為AI加速器領先製造商的優勢地位。該平台包含五大創新技術:第六代NVLink互連技術、Transformer引擎、機密計算、RAS引擎以及Vera CPU。其中第三代機密計算技術使Vera Rubin NVL72成為首個提供跨CPU、GPU和NVLink域資料安全保護的機架級平台。第二代RAS引擎橫跨GPU、CPU和NVLink,具備即時健康檢查、容錯和主動維護功能,以最大化系統生產力。機架採用模組化、無線纜托盤設計,組裝和維護速度比Blackwell快18倍。輝達表示,包括亞馬遜的AWS、Google雲、微軟和甲骨文雲在2026年將率先部署基於Vera Rubin的實例,雲合作夥伴CoreWeave、Lambda、Nebius和Nscale也將跟進。OpenAI CEO Sam Altman表示:“智能隨計算擴展。當我們增加更多計算時,模型變得更強大,能解決更難的問題,為人們帶來更大影響。輝達Rubin平台幫助我們持續擴展這一進展。”Anthropic聯合創始人兼CEO Dario Amodei稱,輝達“Rubin平台的效率提升代表了能夠實現更長記憶、更好推理和更可靠輸出的基礎設施進步”。Meta CEO祖克柏表示,輝達的“Rubin平台有望帶來性能和效率的階躍式變化,這是將最先進模型部署給數十億人所需要的”。輝達還稱,思科、戴爾、惠普企業、聯想和超微預計將推出基於Rubin產品的各類伺服器。包括Anthropic、Cohere、Meta、Mistral AI、OpenAI和xAI等AI實驗室正期待利用Rubin平台訓練更大型、更強大的模型。評論稱,輝達今年比往年更早披露新產品的細節,這是該司保持行業依賴其硬體的舉措之一。因為輝達通常在每年春季加州聖何塞舉行的GTC活動上深入介紹產品細節。02 物理AI的ChatGPT時刻!輝達“內驅”無人駕駛汽車將至,將於一季度在美國上路黃仁勳還宣佈開源其首個推理 VLA (視覺-語言-動作) 模型Alpamayo 1,使汽車能夠在真實世界中進行"推理",這標誌著輝達在無人駕駛領域邁出關鍵一步。這一舉措旨在加速安全的自動駕駛技術開發。該模型通過類人思維方式處理複雜駕駛場景,為解決自動駕駛長尾問題提供新路徑。黃仁勳表示,首款搭載輝達技術的汽車將於第一季度在美國上路,第二季度在歐洲上路,下半年在亞洲上路。輝達免費開放Alpamayo模型,允許潛在使用者自行對模型進行重新訓練。該模型旨在打造能在意外情況下"思考"解決方案的車輛,例如交通訊號燈故障等場景。車載電腦將分析來自攝影機和其他感測器的輸入,將其分解為步驟並提出解決方案。這一開源舉措獲得了行業廣泛支援。包括捷豹路虎(JLR)、Lucid、Uber以及加州大學伯克利分校DeepDrive深度學習自動駕駛產業聯盟(BDD)在內,多家移動出行領軍企業和研究機構表示,將利用Alpamayo開發基於推理的自動駕駛技術堆疊,推動L4級自動駕駛部署。首個開源推理VLA模型發佈輝達此次發佈的Alpamayo家族整合了三大基礎支柱:開源模型、模擬框架和資料集,建構了一個完整的開放生態系統供任何汽車開發者或研究團隊使用。Alpamayo 1是業界首個為自動駕駛研究社區設計的思維鏈推理VLA模型,現已在Hugging Face平台發佈。該模型採用100億參數架構,使用視訊輸入生成軌跡及推理軌跡,展示每個決策背後的邏輯。開發者可以將Alpamayo 1改編為更小的執行階段模型用於車輛開發,或將其作為自動駕駛開發工具的基礎,例如基於推理的評估器和自動標註系統。黃仁勳表示:“物理AI的ChatGPT時刻已到來——機器開始理解、推理並在真實世界中行動。無人計程車是首批受益者。Alpamayo為自動駕駛汽車帶來推理能力,使其能夠思考罕見場景,在複雜環境中安全駕駛,並解釋其駕駛決策——這是安全、可擴展自動駕駛的基礎。”輝達強調,Alpamayo模型並非直接在車內運行,而是作為大規模教師模型,供開發者微調並提取到其完整自動駕駛技術堆疊的骨幹中。未來該家族的模型將具有更大的參數規模、更詳細的推理能力、更多的輸入輸出靈活性以及商業使用選項。推理VLA技術原理解析推理VLA是一種統一的AI模型,將視覺感知、語言理解和動作生成與逐步推理整合在一起。這類模型整合了明確的AI推理功能,在傳統視覺-語言-動作模型的基礎上建構。AI推理是AI逐步解決複雜問題並生成類似於人類思維過程推理痕跡的能力。這些系統對一系列網際網路規模的任務進行預訓練,包括語言生成和視覺連接,以發展通用知識和感知基礎。與將視覺輸入直接對應到動作的標準VLA模型不同,推理VLA模型將複雜的任務分解成可管理的子問題,並以可解釋的形式闡明其推理過程。這使模型能夠更準確地解決問題或執行任務,還能對模型正在進行的操作提供一定程度的反思。建構推理VLA模型需要三種基本AI功能:視覺感知、語言理解以及動作和決策制定。視覺感知處理來自攝影機、毫米波雷達或雷射雷達等感知感測器的即時資料;語言理解通過自然語言處理解釋命令、上下文提示和對話輸入;動作和決策制定則使用融合的感官和語言資訊來計畫、選擇和安全地執行任務,同時生成可解釋的推理痕跡。在自動駕駛場景中,推理VLA可以對交通狀況進行逐步推理。例如,接近一個十字路口時,系統可能會進行如此推理:"我看到一個停止標誌,左邊有車輛駛來,還有行人正在過馬路。我應該減速,完全停下來,等待行人通過人行橫道,安全時再繼續前進。"完整開放生態系統支援開發除Alpamayo 1模型外,輝達還發佈了配套的模擬工具和資料集,建構完整的開發生態系統。AlpaSim是一個完全開放原始碼的端到端模擬框架,用於高保真自動駕駛開發,現已在GitHub平台發佈。它提供真實的感測器建模、可配置的交通動態和可擴展的閉環測試環境,實現快速驗證和策略最佳化。輝達還提供了面向自動駕駛最多樣化的大規模開放資料集,包含超過1700小時的駕駛資料,涵蓋最廣泛的地理位置和條件範圍,覆蓋罕見且複雜的真實世界邊緣案例,這對於推進推理架構至關重要。這些資料集可在Hugging Face平台獲取。這些工具共同為基於推理的自動駕駛技術堆疊建立了一個自我強化的開發循環。開發者可以利用這些資源在專有車隊資料上微調模型,將其整合到基於輝達DRIVE AGX Thor加速計算建構的輝達DRIVE Hyperion架構中,並在商業部署前通過模擬驗證性能。03 跨行業AI模型全面開放本周一,輝達還發佈了推動各行業AI發展的多個新開源模型、資料和工具。這些模型涵蓋用於代理AI的輝達Nemotron家族、用於物理AI的輝達Cosmos平台、用於機器人的輝達Isaac GR00T以及用於生物醫學的輝達Clara。輝達還提供了開源訓練框架和全球最大的開放多模態資料集合之一,包括10兆語言訓練標記、50萬個機器人軌跡、45.5萬個蛋白質結構和100TB的車輛感測器資料。輝達代理式AI基礎模型Nemotron發佈了語音、多模態檢索增強生成(RAG)和安全相關的新模型。Nemotron Speech包含業界領先的開源模型,為即時字幕和語音AI應用提供即時、低延遲語音識別。Nemotron RAG包含新的嵌入和重排序視覺語言模型,提供高度精準的多語言和多模態資料洞察。在物理AI和機器人領域,輝達發佈了Cosmos開放世界基礎模型,為加速物理AI開發和驗證帶來類人推理和世界生成能力。Isaac GR00T N1.6是一個開放推理VLA模型,專為人形機器人打造,實現全身控制,並使用輝達Cosmos Reason實現更好的推理和上下文理解。輝達稱,博世(Bosch)、CodeRabbit、CrowdStrike、Cohesity、Fortinet、Franka Robotics、Humanoid、Palantir、Salesforce、ServiceNow、日立和Uber等科技業的領頭羊正在採用並基於輝達的開源模型技術進行開發。輝達的開源模型、資料和框架現已在GitHub和Hugging Face平台發佈,並可通過一系列雲、推理和AI基礎設施平台以及build.nvidia.com獲取。這些模型中的許多還以輝達NIM微服務的形式提供,可在從邊緣到雲端的任何輝達加速基礎設施上進行安全、可擴展的部署。 (華爾街見聞)
【CES 2026】黃仁勳:Vera Rubin 已進入生產,NVIDIA 押注 2026 下半年新一代 AI 平台
一、“已在生產、按期交付”:這次 NVIDIA 在強調什麼黃仁勳在拉斯維加斯 CES 的台上,把一句話說得很直白:Rubin 平台“在生產中”,而且客戶很快就能開始試用,並把時間窗錨定到 2026 年下半年。這種表述的價值,不在於多了一個新名字,而在於它等於在公開場合給路線圖打了一個“里程碑戳”。原因也不難理解。上一代 Blackwell 曾出現過工程與量產節奏上的波折,市場對“下一代是否會再被拖慢”天然敏感。Wired 提到,“full production”這類表述本身並沒有統一、嚴格的行業定義,但分析師往往會把它當成對投資者的訊號:項目在關鍵節點上沒有掉鏈子。與此同時,外部需求確實在推著 NVIDIA 必須更早、更明確地給出交付預期。Bloomberg 的報導強調了“客戶將很快能夠試用”的說法,背後反映的是雲廠商、AI 資料中心營運商對下一代平台匯入節奏的迫切。二、Rubin 不是一顆晶片:NVIDIA 把“六件套”當作產品在 NVIDIA 的敘事裡,Rubin 不再是“某一顆 GPU”,而是一個極端協同設計的六晶片平台。官方新聞稿與 NVIDIA 博文把這套組合列得很清楚:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switch。這一套“六件套”的指向,是把資料中心裡原本分散的計算、互連、網路、安全與加速部件,做成可重複交付、可規模化部署的系統工程。你買到的不是“更快的卡”,而是更接近“可直接拼裝成 AI 工廠”的平台底座。Wired 也把這種轉變描述為:NVIDIA 正在把自己從晶片供應商進一步推向“AI 系統提供商”。對讀者來說,理解這裡的關鍵,是不要被命名繞暈:Vera 是 CPU,Rubin 是 GPU,它們與 NVLink、網路卡、DPU、交換晶片一起,被 NVIDIA 當成一個“從機櫃到機房”的系統方案賣給合作夥伴,再由合作夥伴賣給終端客戶。三、性能與成本口徑:那些是官方宣稱,那些需要謹慎理解CES 的舞台天然需要“高能句”。The Verge 總結了 NVIDIA 在演講中最吸睛的幾組口徑:Rubin GPU 的訓練性能相對 Blackwell 可達 5 倍;在某些 “mixture of experts(MoE)” 模型上,整套 Vera Rubin 架構能用約四分之一的 GPU完成訓練,同時把 token 成本降到約七分之一。Wired 則提到 NVIDIA 的另一種表達方式:AI 運行成本可降到 Blackwell 的十分之一量級,並同樣強調“用更少的晶片訓練更大的模型”。這些話可以引用,但不能照單全收。原因不是懷疑其真假,而是它們幾乎都隱含了前提:比較基線是什麼(Blackwell 的那種配置:單卡、HGX、還是 NVL 機櫃級系統);工作負載是什麼(訓練、推理、還是特定 MoE 架構/特定精度);系統瓶頸在那裡(算力、視訊記憶體頻寬、互連、網路、儲存、軟體棧成熟度)。換句話說,這些“倍數級提升”是 NVIDIA 在“整機視角”下給出的系統宣稱,而不是一顆晶片的裸性能。NVIDIA 自己在新聞稿裡也把重點放在“極端協同設計”“降低訓練時間與 token 成本”這種系統指標上。更值得寫清楚的一點是:這些指標的意義,正從“更快”轉向“更便宜”。當大模型應用開始從訓練走向海量推理、從實驗走向規模化部署,客戶最關心的不再只是峰值吞吐,而是每個 token 的成本、每瓦性能、以及在真實資料中心裡“擴起來是否順”。這也是為什麼 NVIDIA 在 CES 上把“成本口徑”放到了和“性能口徑”同等的位置。四、從機櫃到“AI工廠”:NVL72 這類系統化交付意味著什麼如果說“六件套”是概念,那麼 Vera Rubin NVL72 就是把概念變成交付形態的樣板。NVIDIA 的產品頁把 NVL72 定義為機櫃級 AI 超級電腦:72 塊 Rubin GPU + 36 顆 Vera CPU,並配套 ConnectX-9、BlueField-4、NVLink 6,以及面向外部擴展的 InfiniBand 與乙太網路方案。機櫃級方案最大的好處,是把資料中心的複雜度從“現場工程”變成“工廠化裝配”。Barron’s 提到,Rubin 的伺服器系統會更模組化、減少線纜,目標是讓裝配與維護更快。這類變化看似“工程細節”,但對大規模部署來說極其關鍵:裝得更快,意味著新機房上線周期更短;維護更像換模組,意味著停機時間更可控;系統化交付越成熟,越容易複製到更多機房與更多地區。更“硬核”的細節也在浮出水面。CRN 報導中引用了 NVIDIA 對 NVL72 的參數描述:整櫃 HBM4 容量可達 20.7TB,並給出了 LPDDR5x 容量、HBM4 頻寬與互連頻寬等指標,用來強化“系統頻寬”是這一代的核心敘事。Tom’s Hardware 則進一步提到 Rubin GPU 的封裝與 HBM4 配置(如每個封裝的 HBM4 容量與頻寬口徑),同樣指向“為了喂飽算力,視訊記憶體與頻寬在同步升級”。當 NVL72 變成主打形態,NVIDIA 其實在把競爭拉到更高維度:不是你能不能做出一顆晶片,而是你能不能把晶片、互連、網路、安全、軟體一起打包成“可落地、可維運、可擴張”的資料中心機器。五、競爭線:自研晶片、供應鏈與“按期交付”的資本市場含義NVIDIA 當然不是唯一想吃下 AI 資料中心的人。雲廠商在推進自研晶片,晶片創業公司與傳統半導體公司也在尋找突破口。Wired 在報導裡提到,在這種競爭壓力下,NVIDIA 更需要向外界證明兩件事:一是路線圖清晰,二是交付節奏可靠。因此,“已在生產、下半年交付”不僅是工程進度的匯報,也是資本市場溝通的一部分——它把不確定性從“會不會來”收斂到“什麼時候規模化、以什麼形態規模化”。Bloomberg Law 的轉述提到,黃仁勳表示六顆晶片已從製造夥伴處返回,並通過了一些里程碑測試,暗示項目正沿著預定軌道推進。但真正決定 Rubin 能不能延續 NVIDIA 的優勢,仍然取決於更具體、也更難在發佈會上講清的變數:供應鏈與產能爬坡:先進製程、先進封裝與高頻寬記憶體的任何一個環節都可能成為節奏瓶頸;軟體棧與生態遷移:平台化交付意味著客戶不僅換硬體,還要評估相容性與維運體系;Wired 提到 NVIDIA 與 Red Hat 等合作,也可被視為在補齊“平台落地”的軟體側能力。客戶匯入速度:報導提及微軟與 CoreWeave 等潛在早期採用者與資料中心計畫,這類客戶的匯入節奏往往會成為“新平台能否滾起來”的風向標。 (視界的剖析)
【CES 2026】黃仁勳炸場:全新Rubin平台量產,AI推理成本降至十分之一,發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作
黃仁勳 CES 2026主題演講:全新Rubin平台正式量產,AI推理成本降至十分之一,推進機器人和自動駕駛生態,發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作1. Nvidia與奔馳合作推出Level 2自動駕駛系統,2026年大規模商用要點一:舊金山路測表現出色,可與特斯拉FSD競爭Nvidia在CES 2026上展示了其全新的點對點Level 2駕駛輔助系統,在舊金山約40分鐘的實際道路測試中,該系統搭載在2026款奔馳CLA轎車上,成功應對了複雜的城市交通場景,包括交通訊號燈、四向停車標誌、雙排停車車輛和無保護左轉等情況。Nvidia汽車部門負責人Xinzhou Wu透露,該系統在城市駕駛中的人工接管次數與特斯拉FSD相當,但特斯拉用了約8年才實現城市駕駛功能,而Nvidia預計在約1年內就能達成同樣目標。The Verge要點二:2026年分階段推出,2027-2028年推進L4自動駕駛根據Nvidia的產品路線圖,2026年上半年將發佈支援高速公路和城市駕駛的Level 2系統,包括自動變道、停車標誌和交通訊號識別等功能;下半年將增加自動泊車能力,年底前將覆蓋整個美國。該系統基於Drive AGX Orin晶片,2026年計畫開展小規模L4等級試點,2027年將實現合作夥伴機器人計程車部署,2028年將進入個人擁有的自動駕駛汽車。奔馳CEO Ola Kallenius表示,與Nvidia合作的核心在於安全性,強調"駕駛一個重達4000磅、時速50英里的物體,抱歉是不夠的,必須要有更高的確定性和安全性。"The Verge2. Nvidia發佈Alpamayo自動駕駛AI模型家族,與奔馳開展首個全端自動駕駛合作要點一:推出業內首個開源推理型自動駕駛AI模型Nvidia在CES 2026上宣佈推出Alpamayo系列自動駕駛AI模型、工具和資料集,這是專為Level 4自動駕駛設計的推理型視覺-語言-行動(VLA)模型,能夠讓車輛像人類一樣感知、推理和行動。該系列包括Alpamayo-1(一個擁有100億參數的鏈式思考VLA模型,已在Hugging Face開源)、AlpaSim(開源端到端模擬框架)以及超過1,700小時駕駛資料的物理AI開放資料集。該模型不僅能接收感測器輸入並控制方向盤、剎車和加速,還能對即將採取的行動進行推理。Constellation Research要點二:奔馳成為首個商用合作夥伴,2026年一季度上路Nvidia CEO黃仁勳宣佈,搭載Alpamayo的首款乘用車將是全新奔馳CLA,該車將採用Nvidia DRIVE全端自動駕駛平台,預計2026年第一季度在美國道路上推出。這一合作歷時至少5年,投入數千名工程師,建構了完整的垂直整合系統。奔馳CLA最近獲得了EuroNCAP五星安全評級。黃仁勳表示:"Nvidia將長期支援這些模型和自動駕駛系統,因為自動駕駛工作是通向機器人技術的橋樑。"此外,Lucid、捷豹路虎、Uber和伯克利DeepDrive也對Alpamayo表示出濃厚興趣。Nvidia Blog | Constellation Research3. 波士頓動力與GoogleDeepMind達成AI合作,Gemini機器人模型將整合至Atlas人形機器人要點一:雙方聯合研發,提升人形機器人物體操控和工業任務能力波士頓動力和GoogleDeepMind在CES 2026上宣佈建立新的AI合作夥伴關係,旨在將DeepMind的Gemini Robotics基礎模型整合到波士頓動力的新一代Atlas人形機器人中。該合作將結合波士頓動力的運動智能與DeepMind的基礎AI能力,重點使人形機器人能夠完成各種工業任務,預計將成為製造業轉型的驅動力,首先從汽車行業開始。聯合研究工作預計將在未來幾個月內在兩家公司同時展開。Boston Dynamics要點二:利用多模態基礎模型,讓機器人具備感知、推理和人機互動能力波士頓動力Atlas項目機器人行為總監Alberto Rodriguez表示:"我們正在打造世界上最強大的人形機器人,我們需要一個能夠幫助我們建立新型視覺-語言-行動模型的合作夥伴,用於這些複雜的機器人。在全世界範圍內,沒有人比DeepMind更適合建構可以安全、高效地部署在各種任務和行業的可靠、可擴展模型。"DeepMind機器人技術高級總監Carolina Parada表示,Gemini Robotics模型基於大規模多模態Gemini模型建構,旨在讓任何形狀和大小的機器人都能感知、推理、使用工具並與人類互動。該合作由波士頓動力的大股東現代汽車集團支援。Boston Dynamics4. Nvidia CES 2026主題演講:發佈Rubin平台,AI算力提升5倍,推進機器人和自動駕駛生態要點一:全新Rubin平台正式量產,AI推理成本降至十分之一Nvidia CEO黃仁勳在CES 2026主題演講中宣佈,公司首個極致協同設計的六晶片AI平台Rubin已進入全面量產。該平台包括Rubin GPU(提供50 petaflops的NVFP4推理性能)、Vera CPU(專為資料移動和智能體處理設計)、NVLink 6擴展網路、Spectrum-X乙太網路光子學、ConnectX-9 SuperNIC和BlueField-4 DPU。Rubin平台承諾將AI token成本降低到原來的十分之一,訓練混合專家模型所需的GPU數量減少至四分之一,並推出AI原生儲存平台,將長上下文推理的每秒token數提高5倍。黃仁勳強調:"你訓練AI模型越快,就能越快將下一代前沿技術推向世界。這關乎你的上市時間,這關乎技術領導力。"Nvidia Blog要點二:發佈Cosmos世界基礎模型和開源物理AI生態系統黃仁勳展示了Nvidia Cosmos開放世界基礎模型,該模型在視訊、機器人資料和模擬資料上訓練,能夠從單張圖像生成逼真視訊、合成多攝影機駕駛場景、從場景提示建模邊緣案例環境,並執行物理推理和軌跡預測。演講中還展示了個人AI智能體在Nvidia DGX Spark桌面超級電腦上本地運行,並通過Reachy Mini機器人具身化的演示。黃仁勳宣佈Nvidia在六個領域建構開源前沿AI模型:Clara(醫療健康)、Earth-2(氣候科學)、Nemotron(推理和多模態AI)、Cosmos(機器人和模擬)、GR00T(具身智能)和Alpamayo(自動駕駛),並強調與西門子擴大合作,將Nvidia全端與西門子工業軟體整合。Nvidia Blog5. 阿里巴巴高德地圖推出AI 3D餐廳展示工具,對標美團爭奪本地生活市場要點一:基於通義萬相視覺模型,餐廳上傳照片或視訊即可生成3D圖像據彭博社報導,阿里巴巴旗下地圖和本地生活服務部門高德地圖即將推出一項AI功能,允許餐廳通過上傳視訊或照片來渲染3D圖像。該技術基於阿里巴巴的通義萬相(Wan)視覺模型,旨在降低商戶的行銷和推廣成本。熟悉該事項的人士透露,阿里巴巴計畫向部分商家免費提供這項技術一段時間。這一舉措是阿里巴巴在中國餐飲和外賣領域與美團競爭的更廣泛努力的一部分。Bloomberg要點二:強化本地生活服務佈局,挑戰美團市場主導地位此次推出3D餐廳展示工具,是阿里巴巴利用AI技術加強與美團在本地生活服務市場競爭的最新動作。美團目前在中國外賣市場、餐廳預訂和本地服務領域佔據主導地位。通過提供更具視覺吸引力的餐廳展示方式,高德地圖希望吸引更多商戶和使用者,擴大其在本地生活服務領域的市場份額。這一策略體現了阿里巴巴將AI技術應用於實際商業場景,以技術創新推動業務增長的思路。Bloomberg6. MiniMax香港IPO定價觸頂至21美元,AI熱潮推動估值達65億美元要點一:定價HK$165觸及區間上限,提前一天停止接受訂單據彭博社報導,上海AI初創公司MiniMax計畫將其香港IPO定價定在每股HK約美元達到其營銷區間的頂部151-HK。知情人士透露該公司通知投資者將以165的價格出售股票,並計畫在當地時間下午5點停止接受機構投資者的訂單,比預期提前一天。MiniMax於2025年12月31日啟動IPO路演,計畫發行2,538.92萬股新股。按最高定價計算,此次IPO將籌集至少42億港元(約5.38億美元),對MiniMax的估值約為65億美元。Bloomberg | Reuters要點二:獲阿里巴巴和騰訊支援,AI熱潮下需求強勁MiniMax得到了阿里巴巴集團和騰訊控股的支援,在AI熱潮的推動下,其IPO展現出強勁的訂單勢頭。該公司專注於生成式AI技術,提供包括文字生成、對話系統等多項AI服務。此次頂格定價和提前停止認購,反映出投資者對中國AI企業的強烈興趣。分析師指出,MiniMax的成功上市將為香港資本市場帶來活力,也體現了全球投資者對中國AI創新能力的認可。該IPO預計將於2026年1月初完成定價。Seeking Alpha7. 富士康Q4營收同比增長22%至827億美元,AI和雲端運算需求強勁創紀錄要點一:Q4營收超預期,12月單月營收同比增長32%創歷史新高台灣富士康(鴻海精密)於2026年1月5日公佈,2025年第四季度營收達到新台幣2.6兆元(約827億美元),同比增長22.07%,環比增長26.51%,創下季度營收歷史新高,超過路孚特SmartEstimate預測的2.418兆新台幣。12月單月營收達到新台幣8,628.6億元(約274.2億美元),同比增長31.77%,創下該月份歷史紀錄。富士康表示,第四季度營收增長顯著超出預期,為2026年第一季度創造了較高的對比基數。Reuters要點二:雲端運算和網路產品業務強勁,AI伺服器需求持續旺盛富士康稱,增長主要由雲端運算和網路產品部門的強勁表現驅動,這得益於AI產品需求的激增。作為輝達最大的伺服器製造商和蘋果最大的iPhone組裝商,富士康2025年全年銷售額首次突破新台幣8兆元大關。該公司表示,儘管2026年第一季度資訊通訊技術產品將進入季節性放緩期,但AI伺服器機架產品的強勁需求預計將使業績處於過去五年區間的高端。富士康還指出,智能消費電子產品部門(包括iPhone)由於匯率不利影響,營收出現小幅下降。Reuters8. 阿里巴巴PANDA AI工具助力醫院發現24例胰腺癌,自2024年11月分析超18萬例CT掃描要點一:AI在常規CT掃描中發現早期胰腺癌,提前挽救患者生命據《紐約時報》報導,中國寧波大學附屬人民醫院自2024年11月作為臨床試驗開始使用阿里巴巴達摩院開發的PANDA(Pancreatic Cancer Detection with Artificial Intelligence,胰腺癌人工智慧檢測)AI工具以來,已分析超過18萬例腹部或胸部CT掃描,幫助醫生檢測出約24例胰腺癌病例,其中14例處於早期階段。該院胰腺科主任朱克雷醫生表示:"我認為可以百分之百地說,AI拯救了他們的生命。"PANDA工具被訓練用於在非對比CT掃描中尋找胰腺癌,這些患者最初因腹脹或噁心等症狀就診,並未直接看胰腺專科醫生,部分CT掃描在被AI工具標記之前並未引起警報。New York Times要點二:通過深度學習突破非對比CT侷限,獲FDA突破性裝置認證PANDA工具利用深度學習技術,通過演算法將2000多名已知胰腺癌患者的對比CT掃描中的病灶位置對應到同一患者的非對比CT掃描上,訓練AI模型在清晰度較低的圖像中檢測潛在癌症。在超過2萬例非對比CT掃描的測試中,該工具正確識別了93%的胰腺病變患者,研究結果發表在2023年《自然醫學》雜誌上。2025年4月,阿里巴巴宣佈PANDA獲得美國FDA"突破性裝置"認證,意味著其審查將被加速以幫助其進入市場。胰腺癌是最致命的癌症之一,五年生存率約為10%,早期檢測極其困難。在寧波醫院,非對比CT檢查費用約為25美元(保險前),該系統正在分析醫生已為其他原因訂購的掃描,因此不會給醫院或患者增加額外檢查成本。New York Times9. Instagram Reels年化收入達500億美元,成為Meta最大增長引擎要點一:五年從零到500億,超越可口可樂和耐克年收入據《華爾街日報》報導,Meta旗下Instagram的短影片功能Reels在2025年第三季度實現了超過500億美元的年化收入營運率(annual run rate)。Meta CEO馬克·祖克柏在2025年10月的財報電話會議上表示:"隨著視訊在我們的應用中持續增長,Reels現在的年化收入已超過500億美元。"這一數字令人震驚,因為Reels於2020年推出時僅是對TikTok的模仿,當時沒有任何收入。五年後,其收入規模已經接近可口可樂和耐克的年收入水平,成為Meta最重要的增長業務之一。WSJ要點二:使用者參與度超越YouTube Shorts,AI推薦系統功不可沒報導指出,Instagram使用者在Reels上花費的時間已經超過YouTube Shorts的觀眾觀看時長。Meta第三季度總營收為512.4億美元,同比增長26%,其中Family of Apps(應用家族)收入達到508億美元,Reels的貢獻佔比可觀。祖克柏將Reels的成功歸功於推薦系統的改進和AI技術的應用,這些技術提高了內容的相關性和使用者參與度。分析師認為,Reels已經從簡單的TikTok複製品轉變為Meta的戰略性AI資產,推動了整個平台的廣告收入增長。創作者經濟的蓬勃發展和AI驅動的變現能力是Reels取得成功的關鍵因素。AInvest10. DeepSeek為聊天機器人新增"交錯思考"功能,月活使用者激增90%至1.315億要點一:推出"交錯思考"深度研究模式,提升複雜查詢處理能力據《南華早報》報導,總部位於杭州的AI初創公司DeepSeek對其旗艦聊天機器人的使用者介面進行了更新,新增了名為"交錯思考"(interleaved thinking)的高級功能。這一功能類似於OpenAI的深度研究(Deep Research)產品,可以執行多步驟研究,在整個過程中穿插"思考"步驟。此前,聊天機器人在生成響應之前會"思考"使用者提供的提示,而"交錯思考"允許模型在每個操作之間進行"思考",增強其研究能力。例如,在打開網頁後,模型可能需要"思考"所讀資訊的可信度,然後決定是否查閱另一份檔案來驗證發現。這一過程對於處理複雜查詢至關重要。South China Morning Post要點二:12月月活使用者暴增90%,新一代模型備受期待報導指出,DeepSeek在2025年12月的月活躍使用者數激增90%,達到近1.315億。《南華早報》測試顯示,DeepSeek的聊天機器人並非總是部署"深度研究"模式,除非收到複雜的查詢提示。一旦該功能被啟動,使用者能夠看到"交錯思考"過程的每一步。這些升級標誌著DeepSeek在消費端的罕見改進,正值業界對其下一代模型的期待不斷升溫之際。分析師指出,隨著DeepSeek在AI模型性能和使用者體驗上的持續最佳化,該公司正在中國AI市場中鞏固其領先地位,並對國際競爭對手構成越來越大的挑戰。South China Morning Post11. 中國量化基金幻方推出iQuest-Coder AI模型,僅400億參數擊敗GPT-5.1和Claude Sonnet 4.5要點一:開放原始碼AI模型在多項基準測試中超越美國競爭對手據《南華早報》報導,總部位於北京的量化交易公司幻方量化(Ubiquant)於2026年1月初發佈了一系列開放原始碼專注型大語言模型iQuest-Coder-V1系列,該系列模型在多項基準測試中聲稱能夠匹敵甚至超越美國競爭對手如OpenAI的GPT-5.1和Anthropic的Claude Sonnet 4.5,儘管使用的參數數量遠少於後者。iQuest-Coder-V1系列專為程式碼智能設計,擅長自動程式設計、偵錯和程式碼解釋等任務,包括70億、140億和400億參數的模型,遠小於GPT-5.1和Claude Sonnet 4.5等領先閉源系統的參數規模(通常在4000億至8000億參數之間)。South China Morning Post要點二:基準測試成績亮眼,400億參數模型比肩國際頂尖水平根據自報資料,iQuest-Coder-V1-40B-Loop-Instruct在SWE-bench Verified基準測試中得分76.2%,接近Claude Sonnet 4.5的77.2%和GPT-5.1的76.3%。該基準測試衡量AI模型解決真實世界軟體工程問題的能力。在BigCodeBench測試中(該測試評估LLM在解決實際且具有挑戰性的程式設計任務方面的表現,不存在污染),該模型得分49.9%,超過Gemini 3 Pro Preview的47.1%和GPT-5.1的46.8%。此外,在LiveCodeBench v6測試中,該模型也展現出色表現。幻方量化繼DeepSeek之後成為中國量化基金進軍AI領域的又一案例,展示了中國金融科技公司在AI研發方面的強大實力和創新能力。South China Morning Post (AI Daily Insights)
300億美元!AI醫療史上最大獨角獸誕生,華爾街傳奇投資人創業,徹底顛覆醫療保健!
據路透社報導,資深投資人馬特·霍爾特(Matt Holt)正式卸任新山資本(New Mountain Capital)私募股權董事總經理兼總裁一職,並啟動一項規模高達300億美元的標誌性交易。霍爾特計畫收購老東家新山資本旗下最成功的五家醫療科技公司,並將其合併到其新創立的AI醫療平台——Thoreau。這五家公司分別是:健康資料交換巨頭Datavant、AI理賠最佳化平台Machinify、精準醫療行銷商Swoop、醫療流程自動化公司Smarter Technologies 以及電子醫療記錄平台Office Ally。本次交易的核心邏輯在於“AI重塑醫療”:霍爾特的目標是,通過將這五家分佈在資料、支付和營運環節的頂尖企業整合在一起,Thoreau將建構起一個由AI驅動的全自動醫療支付與資料流轉平台,從而大幅提高醫療效率、降低成本。知情人士透露,霍爾特長期在中東地區籌集資金以支援該交易,目前英國資產管理巨頭ICG (Intermediate Capital Group) 已確定作為主要出資方。對於新山資本而言,這筆交易或許將成為其最賺錢的一筆交易:預計帶來約140億美元的綜合收益,其中包括約120億美元的現金回籠以及在新公司Thoreau中保留的股權。新山資本成立於1999年,是一家總部位於紐約的頂級私募基金和另類資產管理公司,當前管理資產規模約600億美元。據悉,這筆交易將於2026年上半年完成交割。如果成功,Matt Holt將實現從“投資人”到“企業家”的轉身,執掌一家估值300億美元的AI醫療巨頭。手握6000萬資料 美國最大健康資料商五家企業中,健康資料企業Datavant是最知名的一家。該公司於2018年從以“撿漏”聞名的藥企Roivant中分拆出來,在2021年該公司以70億美元與健康服務企業Ciox Health完成合併,正式成為美國最大的健康資料公司。目前該公司手握超過6000萬條醫療記錄,擁有超過8萬家診所、醫院及醫療系統合作夥伴,覆蓋前20大生命科學公司、100%的美國支付方。其特色連結技術可在嚴格遵守隱私標準的前提下,實現數千萬份醫療記錄的安全傳輸,且不洩露個人身份資訊。建立在海量醫療資料之上,餘下的四家企業分別在支付、行銷、院內管理、醫療帳單等方面有所專長。Machinify是通過AI簡化醫療支付流程的平台,在今年一月被新山資本收購,估值為50億美元,擁有超過5億美元的收入,服務於13個前20名支付方。專注於行銷領域的Swoop手握醫療領域最大的病友社區之一My Health Team,該社區擁有450萬慢性病和罕見病註冊會員。Smarter Technologies則是利用AI降低醫療行政成本的企業,擁有業內首套AI驅動的收入周期管理(RCM)系統,目前服務超過60多家醫院和醫療系統,處理超過4億筆交易。Office Ally是為醫療機構提供雲端清算的帳單軟體,擁有超過8萬家醫療機構客戶,每年處理超過9.5億筆交易。華爾街傳奇投資人創業 誓要重塑醫療而本次交易的主角,馬特·霍爾特(Matt Holt)與新山資本(New Mountain Capital)的故事,是一部典型的“從零到一”的華爾街傳奇。新山資本成立於1999年,由前高盛資深銀行家史蒂文·克林斯基(Steven Klinsky)創立。彼時正值網際網路泡沫巔峰,但克林斯基卻選擇了一條與眾不同的道路:避開當時炙手可熱的科技初創企業,轉而專注於“防禦性增長”(Defensive Growth)策略——即投資於經濟周期波動中仍能保持穩定現金流、具備長期結構性優勢的非周期性行業,如醫療健康、軟體、商業服務和教育等。這一理念在隨後的多次金融危機中被證明極具前瞻性。無論是2008年全球金融海嘯,還是2020年新冠疫情引發的市場震盪,新山資本憑藉其穩健的投資組合始終維持了優異的回報表現。其管理資產規模也從最初的幾億美元一路飆升至如今的約600億美元,成長為全球領先的另類資產管理公司之一。馬特·霍爾特的職業生涯幾乎與新山資本的成長史重合。1999 年,他從哈佛大學文學系畢業,最初在雷曼兄弟的併購部門磨練兩年。2001 年,年僅 24 歲的霍爾特加入了剛剛成立兩年的新山資本。Matt Holt克林斯基親自面試並錄用了霍爾特,後者展現出了超越同齡人的行業洞察力,尤其是在醫療健康這一極具壁壘的領域。在隨後的二十多年裡,霍爾特一路晉陞,從分析師到董事總經理,再到擔任新山資本私募股權業務總裁。克林斯基曾在公開場合評價霍爾特是“公司最成功的投資人之一”,他不僅負責管理該機構最核心的私募類股,還一手打造了其龐大的醫療投資帝國。在霍爾特的領導下,新山資本將醫療健康從傳統的“重資產、重監管”行業,重新定義為“效率驅動的技術服務”行業。霍爾特的策略是:不投醫院(提供者),而投讓醫院變高效的工具(技術服務)。他深信美國醫療系統的癥結在於效率低下和資料孤島。因此,在他的推動下,新山資本陸續投資了多家醫療科技公司,包括Avantor(生命科學工具商)這樣的行業標竿。經過二十多年的積累,霍爾特認為醫療行業的數位化已經到了“大整合”的關鍵階段——分散的五家公司,如果在同一個平台下利用統一的AI引擎運作,其產生的協同效應將遠超獨立運作。因此,在獲得ICG等財團的支援後,他選擇帶著這些他親手挑選、培育的“孩子”獨立,成立 Thoreau(意為從複雜中尋找簡單的真理)。這筆交易的背景,不僅僅是資本的騰挪,更是一個頂級投資人在深耕一個行業二十年後,試圖用實業家的身份,去完成他未竟的理想:利用技術徹底重塑醫療系統的底層邏輯。 (智藥局)
這家悄無聲息的AI公司可能成為下一個大贏家!
儘管今年下跌了40%以上,但SoundHound AI似乎已經準備好了反彈。過去兩年科技股的大幅上漲讓許多投資者變得更加富有——這是一件值得慶祝的事情!但是,當我們為輝達、Alphabet和Palantir Technologies的出色表現感到欣慰時,是時候尋找下一個AI大牛股了。這是因為當你以較小的市值開始投資時,你更容易獲得可觀的收益。當我在2022年第一次購買Palantir的股票時,它的市值還不到500億美元,而目前它的市值為4,310億美元,是世界上最大的公司之一。自2022年7月以來,該公司股價上漲了2210%。如果在未來三年再增長2210%,它的市值將達到10兆美元,是目前市場領導者輝達(Nvidia)的兩倍多。顯然,這是不可能的。要想找到一隻人工智慧(AI)類股票,在未來三年內有可能達到帕蘭提爾(palantir)規模的漲幅,我們需要研究一隻未來仍有顯著增長的股票。我現在考慮的是一隻我過去一直持懷疑態度的股票:SoundHound AI。誰是SoundHound AI?SoundHound營運著一個人工智慧平台,允許使用者通過對話使用語音服務和應用程式。語音產品已經存在了很長時間,例如自動客服電話號碼和Siri和Alexa等語音助手。然而,這項技術的早期迭代非常笨拙,足以造成嚴重的使用者挫敗感。SoundHound於2021年上市,主要在汽車和餐飲行業工作,然後在2024年邁出了重要一步,以8000萬美元收購了Amelia AI,這是一家可定製內部使用或面向公眾應用的人工智慧代理。此次收購使SoundHound的企業客戶群增加到200多家。然而,該公司至今仍未實現盈利,投資者今年可能已經發出訊號,表示他們開始對該股感到擔憂:該股今年以來已下跌逾40%。部分問題可能在於該公司第三季度的收益報告,該報告顯示淨虧損1.093億美元,上年同期為虧損2,170萬美元。這一損失抹去了該公司令人印象深刻的4,200萬美元收入,這一收入同比增長了68%。然而,6600萬美元的損失是由於與以前的收購相關的非現金、非經營性會計費用。調整後的淨虧損為1,300萬美元,較上年同期有所改善。最重要的是,該公司在本季度結束時債務為零,手頭現金為2.69億美元。此外,SoundHound的客戶群也在不斷擴大,包括:一項將SoundHound Chat AI整合到一家未具名的中國公司開發的“數以百萬計的支援AI的智能裝置”中的交易。與一家義大利商用車公司達成協議,在其車隊中安裝語音人工智慧。擴大與三家頂級金融服務機構的合同範圍。與美國地區醫院系統達成協議,部署Amelia AI平台。為一家全國全方位服務的連鎖餐廳提供語音點菜技術的交易。與一家在美國20個州提供電視和網際網路服務的電信供應商達成協議。你對這只股票有什麼期待?金融界一致認為SoundHound的股票明年會走高,平均目標價為17.19美元,比當前股價高出53%。SoundHound可能無法複製Palantir的快速增長,但我發現這兩家公司有許多相似之處。三年前,也就是2022年第二季度,Palantir也出現了虧損——在建構平台的過程中,該公司公佈了1.793億美元的淨虧損。管理層擴展了SoundHound的商業模式,使其包含了多種功能,包括客戶服務、銷售、行銷、營運和IT服務管理,該公司每年實現超過100億次個性化自動語音對話。隨著公司努力提高效率,越來越依賴人工智慧解決方案來簡化他們的產品,同時仍然個性化客戶互動,SoundHound AI預計將繼續增長。顯然,我對這家公司的懷疑態度是錯誤的。因為當它的季度虧損開始轉為盈利時,我認為它的股票將在未來幾年內飆升。 (北美財經)
AI社群平台Soul再戰港交所,「沉浸式情緒經濟」故事好講嗎?
11月27日晚間,AI+沉浸式社群平台Soul App向港交所主機板遞交上市申請,騰訊作為策略投資者持股49.9%,中信證券為此IPO的獨家保薦人。根據上市申請文件,Soul日均活躍用戶(DAU)中逾78.7%為Z世代。弗若斯特沙利文報告顯示,Soul是國內首個所有用戶均以虛擬身分(avatars)進行互動的AI+沉浸式社群網路平台。平台基於使用者興趣圖譜,依託以自研的原生情緒價值第一大模式Soul X為代表的AI技術,提供使用者沉浸式互動及情緒價值體驗。在財務表現上,招股書顯示,Soul 2022至2024年收入分別為16.67億元(人民幣,下同)、18.46億元及22.11億元,2025年前八個月收入為16.83億元,2022至2024年收入超15%。公司自2023年起錄得穩定獲利,2024年全年及2025年前八個月經調整獲利分別為3.37億、2.86億元,毛利率分別為83.7%、81.5%,2024年經營活動所得現金淨額4.21億元。AI驅動的情緒價值服務(包括虛擬物品及會員特權)為平台主要收入來源,於2025年前八個月佔比超九成,每位付費用戶的月均收入(ARPPU)為104.4元,反映用戶對情緒價值服務的強力付費意願。截至目前,Soul平台累積註冊用戶約3.9億,2025年前八個月日均活躍用戶(DAU)約1100萬,用戶日均使用時長超50分鐘,人均每日發出點對點私訊交流約75條,月均三個月用戶留存率達80%。根據弗若斯特沙利文報告,截至2025 年前八個月,公司日均活躍用戶(DAU)、日人均啟動次數(20.1次),及新安裝用戶30日留存率(23%)均在中國AI+沉浸式社交平台中排名第一。招股書稱,AI技術是Soul App在沉浸式情緒經濟領域快速發展的核心引擎。本公司自研原生情緒價值第一大模式Soul X大幅提升了使用者體驗與社群活躍度。使用者的高參與度推動模式與演算法持續優化,及AI應用的智慧化,加速平台數位社會的繁榮與使用者體驗提升,拓寬AI賦能下情緒經濟商業化的潛在市場空間,賦能廣告及IP生態等業務成長,形成了獨特的「使用者–AI–平台」飛輪體系,實現商業化複利效應。Soul APP自2015年設立,至2021年完成D+輪,融資節奏穩健且估價快速提升:種子輪獲泥藕資本支持後,天使輪引入簡鳴、璞聚;A輪由MFund魔量資本與晨興資本共同加碼;B輪及B+輪獲DST Global、元生資本等機構認可;2020年騰訊旗下Image Frame Investment以1.35億美元領投D輪,成為最大外部股東;2021年米哈遊攜騰訊、元生資本等再以1.77億美元注資D+輪,累計公開融資逾3.1億美元,為產品迭代、用戶擴張及「社會元宇宙」佈局提供充裕資金。不過,Soul的上市之路相當曲折。2021年,Soul正式向美國證券交易委員會(SEC)提交招股書,計劃在納斯達克上市,但在當年6月的時候,突然宣布暫停納斯達克的IPO進程,官方稱是“收到了其他資本運作的可能性”,但市場也有信息顯示,這或許與當時涉及的一起不正當訴訟競爭有關。2022年6月,Soul的營運主體公司Soulgate向香港聯交所主板遞交了上市申請,但遞交的申請資料因超過6個月未推進而失效,也說明其首次港股上市嘗試暫告段落。2023年3月27日,Soul更新港股上市申請資料,延續上市申請,這是在資料失效後的再次遞表,但更新資料後無實質進展。直到此次,Soul向香港聯交所主板正式遞交上市申請。依文件公司發售所得款項將用於AI能力研發、全球範圍拓展、用戶群擴大、各類內容開發,以及用作營運資金及一般企業用途。(鈦媒體AGI)
AI要向電商“抽佣”了
AI浪潮,衝擊電商。在美國,OpenAI已經與電商平台合作,在ChatGPT對話方塊內直接完成購物;在中國,字節跳動旗下的豆包對話方塊內已經排他性地引入抖音商城的購物連結。ChatGPT和豆包都是大模型時代的產物,第三方資料顯示,兩者月活躍使用者分別超過7億和1.6億。此前,電商的流量入口可能是百度搜尋、微信、天貓網站;未來的電商核心入口之一,可能是大模型的應用,比如豆包、或者阿里巴巴開發的千問APP。每家電商巨頭們都希望跟上AI潮流,但不是每家企業都能避免被浪潮擊倒。流量向AI遷徙“AI從‘搜尋’轉向‘對話’,從而根本性地改變購物方式。”在其第三季度財報會議上,Shopify總裁Harley Finkelstein表示。今年早些時候,這家電商服務平台與OpenAI達成合作,一起啟用Agentic Commerce(代理式電商)。這項合作把消費者購物的場景搬到了ChatGPT對話方塊裡,而不必再跳轉到電商頁面。今年9月,OpenAI宣佈使用者可以在ChatGPT裡直接購買電商平台Etsy上的商品。ChatGPT的月活躍使用者數量已經超過7億。這款現象級的產品,正在成為電商的新入口。原來消費者的購物可能是直接點開亞馬遜網站,或者通過Google搜尋再跳轉至電商平台。現在OpenAI開始與Google、亞馬遜爭奪流量入口了。Google依然是全球流量最大的網站,但是人工智慧給其帶來的威脅已經非常明顯。ChatGPT吸引了越來越多的人使用,對話式互動也比傳統搜尋的列表式更直抵答案。“目前,搜尋引擎正在承受來自AI的強烈衝擊。以Google為例,其搜尋使用量持續下降,而ChatGPT等大模型的使用量卻在不斷攀升。”明略科技CEO吳明輝近日對第一財經記者表示。傳統搜尋引擎的主要收入來自廣告。當使用者發起搜尋時,平台呈現大量與關鍵詞相關的結果,其中相當一部分是廣告位。如果換成大模型的呈現方式,就不再是十幾條、幾十條結果的長列表,而可能只呈現一兩個答案。結果越少,可銷售的廣告資源就越少,從而直接影響Google和百度等搜尋公司的傳統商業邏輯。“OpenAI已經把 ChatGPT與Shopify打通,這意味著AI正在從‘能回答問題’邁向‘能理解你’。隨著技術不斷演進,世界上最瞭解你的人,可能已不再是家人,而是大模型。很多人把最私密的想法都交給了AI去傾訴。過去社交媒體掌握的是人與人之間的關係,資訊是‘共享’的;而如今,大模型掌握的,是人與自己之間最隱秘的對話。如果它知道使用者明天女朋友過生日,甚至能主動挑選禮物,已經無須再通過搜尋引擎去查——每個消費者都將擁有一個屬於自己的代理(Agent)。”吳明輝表示。電商流量向AI入口遷徙,同樣發生在中國。消費者如果此前已經有了初步預算和品牌預期,已經可以直接在豆包裡提問:一萬元左右的博世洗烘套裝,分別有那些可推薦?豆包提供的8條產品介紹中,都附帶了購物連結,點選後跳轉到抖音商城之中。豆包是火山引擎大模型支援的對話式搜尋工具,它與短影片平台抖音同屬於字節跳動。據第一財經觀察,目前豆包所提供的連結,都是導向了抖音商城,即便提示詞指向京東或天貓,也都無法跳鏈到京東等電商平台。這一跡象顯示,抖音和豆包之間,可以打造成一個電商閉環。據QuestMobile資料,豆包在今年三季度的月均活躍使用者規模達到了1.6億;在今年的3月份,短影片平台抖音的月活躍使用者數已經超過了10億。抖音電商負責人康澤宇表示,抖音電商在2025年的支付GMV已經位列行業第三。它已經有能力威脅傳統電商如阿里巴巴、拼多多、京東的市場地位。阿里巴巴的開源大模型,已經在世界範圍內獲得開發者的認可,但它面向普通使用者的產品尚未實現突破。阿里巴巴此前缺乏一款像豆包那樣的、人工智慧時代面向普通使用者的C端產品。它最近才推出千問APP,並將千問項目視為“AI時代的未來之戰”。記者向千問APP提出了同樣問題:“博世洗烘套裝,分別有那些可推薦?”在千問向記者提供的幾款機型介紹中,沒有相應購物連結。當明確要求千問APP給出購物連結的時候,它提供了京東購物連結,而沒有來自同屬阿里集團的天貓或淘寶購物連結。據阿里方面披露,千問APP公測第一周突破了1000萬下載量。阿里巴巴方面透露,它正在計畫將地圖、外賣、訂票、辦公、學習、購物、健康等各類生活場景接入千問APP。電商流量從傳統搜尋轉向AI互動已成趨勢。“我個人判斷,上一代搜尋引擎未來可能會逐漸式微甚至消亡。雖然使用者習慣的遷移不會一蹴而就,但新一代AI代理式的資訊互動方式,將是大勢所趨。”吳明輝表示。大模型“抽佣”電商電商平台的意義在於提升使用者購物體驗。近幾年,抖音、小紅書等平台能夠迅速蠶食搜尋引擎的市場份額,正是因為它們的使用者體驗更好,對使用者需求的理解更深,也能基於歷史行為提供更精準的推薦。傳統搜尋引擎主要基於使用者一次性的搜尋行為來推薦內容,而新一代內容平台掌握了更豐富的行為資料,不需要使用者明確搜尋,只需要不斷滑動即可獲得想要的資訊。這種體驗顯然更輕鬆,更順滑,也更能滿足使用者需求。“我認為ChatGPT這類大模型在商品搜尋與推薦環節中,相較於上一代搜尋引擎,或者Amazon這類傳統電商平台,會給使用者帶來更好的體驗。AI參與的電商模式會成為未來趨勢。”吳明輝表示,但上一代的搜尋引擎和傳統電商平台也不會坐以待斃,它們必然會在不斷迭代中尋求轉型或推出類似的產品或平台。搜尋是網際網路資訊的聚散中樞,也影響著兆資金流向。Google和百度等都在推出自己的AI產品以適應新時代。目前百度通過兩款核心產品以應對人工智慧的洶洶浪潮。其一是百度App內建的文心助手,它融合搜尋功能,支援多輪對話互動。從該產品今年的趨勢來看,文心助手使用者增長勢頭迅猛,對話輪次同比增長約5倍,訂閱使用者數達1200萬。其二,是百度獨立的人工智慧應用文心一言,它與文心助手共享底層技術,但更側重創新探索。百度正在電商層面測試AI能力。現在在百度網頁使用AI搜尋功能,如果提示詞是“博世洗碗機”推薦的話,它已經能夠提供來自於京東的購物連結。博世是一家德國企業,它的洗碗機銷量全球排名第一。但在中國,洗碗機的滲透率不到10%。線下門店目前是博世主要的銷售管道,但它也希望在電商領域開拓出新局面。“百度在人工智慧搜尋中測試電商元件,例如雙11購物節期間,電商元件所創造的日交易額峰值接近600萬元。”在今年三季度財報的溝通會上,百度執行副總裁羅戎表示,百度也已啟動具備即時互動功能的數字人直播測試。“人工智慧搜尋擁有巨大的商業化潛力。儘管人工智慧轉型會給短期營收和利潤率帶來壓力,但這是提升長期競爭力的必然選擇,為抓住未來的巨大機遇,這樣的權衡十分必要。”隨著技術的向前演進,大模型本身將可能變成面向消費者的採購代理。消費者未來的許多購買決策,可能都會直接由大模型完成。當一個消費者的大模型助手去幫他尋找最佳商品時,它可能會主動找到品牌的AI銷售代理,詢問產品詳情、詢價、驗證真偽、理解評論、比對競品。也就是說,品牌未來的官網、直播帳號、客服系統,都將升級為面向AI的互動介面。“當OpenAI、Google、國內各大模型都開始接入電商系統並承擔‘採購代理’的角色時,它們就可能會在中間抽佣、提供商業化入口。”吳明輝表示。難以迴避的資料問題現在,電商平台上的消費者,並不全然信賴大模型。一些電商商戶已經深度使用AI技術,快速生成大量創意,再由策劃人員挑選其中最優的選項。在這個階段,AI的天馬行空是一種優勢。但大模型的技術成熟度依然有待提高。“例如數字人內容,儘管技術上越來越成熟,但消費者對數字人和真人之間的感受差異仍然很明顯,這也導致部分企業在應用上會更加保守。”吳明輝對記者說。最棘手的一類問題是虛假資訊。傳統搜尋引擎擁有成熟的網頁排序體系,通過網頁之間的連結與引用關係衡量網頁權重。而在大模型時代,使用者提出一個任務,大模型會在背後進行搜尋、篩選並總結,最終呈現的答案是其“主動選擇的結果”。大模型決定了使用者能看到什麼、不能看到什麼。這比早期的“百條搜尋結果自主選擇”模式影響更大,因此模型必須確保篩選邏輯的精準性與可靠性,而不能呈現虛假或錯誤資訊。“虛假資料在每個時代都會存在,而且可以預見的是,AI能力越強,虛假資料只會更多。因為大量內容都可以由 AI生成,從格式和結構上看都非常‘完美’,但其中可能存在一些細微卻至關重要的錯誤,最終會影響使用者分析和決策結果。”吳明輝說道。子溪是一位品牌行銷與數位化專家,她在工作中清晰感受到AI有明顯的能力邊界。在2025行銷科學大會上,她表示此前為一家寵物用品企業做品牌定位時,使用AI結合抖音、小紅書、天貓和京東等平台的巨量資料,提煉出貓糧最好的賣點居然是“增肥發腮”。這讓她疑惑,此前寵物品類從業經驗告訴她:寵物主人更希望寵物吃的貓糧營養均衡。“中國寵物主人在這幾年發生翻天覆地的價值觀倒退嗎?因為‘增肥發腮’對貓咪健康是不好的。所以,我不相信AI出來的結果,不相信網際網路上巨量資料的結果。”子溪隨後帶著研究團隊,進到幾十家消費者家裡做近距離觀察、家訪,去看消費者和寵物之間如何互動。此後,她把所有的對話、照片資料、消費者日記,再讓AI做分析。“這個時候我們發現,他們對寵物食品第一需求是什麼?還是均衡營養。”據子溪分析,此前所得出的結論之所以出現巨大偏差,因為AI所用到的語料庫是網際網路上的公開資料,企業沒有自己優質的私有資料庫。“現在網際網路資料是非常偏頗的,因為在抖音、小紅書上能夠拿到流量的內容是吸引眼睛的內容。那個是不是消費者日常生活?不是,它是被粉飾的。”大模型無法掌握全世界的資料,一些企業開發的模型所能獲得的只是公開網際網路的部分資訊,這些資訊甚至都是錯誤的。而且,AI也不一定能夠掌握公開資料的最新變化。“因此,在商業場景中,最關鍵的問題不是AI能不能,而是AI用的是什麼資料、資料是否正確。能夠把企業的私有資料、行業的專業資料,以及公開資料有效整合併連接給模型,才是一個AI系統真正的價值所在。這也是我們投入最多的領域。建構Trusted and Agentic AI,幫助客戶解決對可信資料的連接與挖掘,是明略科技始終努力的方向。”吳明輝表示。技術變革帶來商業變革,但資料質量將在一定程度上決定人工智慧能否在電商領域改天換地。 (中國企業家雜誌)
對話申哲先:領英很低效,我想用 AI 做一個全新的職場社交平台
對於美國的年輕人而言,networking 是一個很重要的工作。無論是獲得職業指導、內推機會,還是建立自己的行業人脈,networking 都是必不可少的工作。在歐美職場文化裡,「Networking」不是單純指「社交」或「人脈」——它更像是一種主動、策略性的關係構建,這些關係會成為每一個職場人未來的「資產」。但是當下,以 LinkedIn 為代表的職業社交平台,卻並不能真正高效地促成這種雙向連接。在 Articuler.ai 創始人申哲先看來,LinkedIn 更像是上一個時代的電話黃頁,只解決了「展示」,沒有解決「匹配」。申哲先想改變職業社交中人與人建立連接的方式。他想做一個 AI 驅動的 、像 Tinder 一樣的 LinkedIn,讓 AI 幫助使用者更高效地去連接、被發現,進而建構一個承載雙向關係的職業社交平台。在職業社交的網際網路化過程中,過去那些信息完成了網際網路化?那些還沒有?職業社交中,找到對的人並建立聯絡,其中涉及那些步驟?AI 能提升那些環節的效率?LinkedIn 和公開網際網路上沉澱了大量使用者的職業資料,這些資料在今天有怎樣的價值?以下是我們與申哲先的對話,經 Founder Park 編輯整理。在我們訪談後不久,LinkedIn 發佈了 AI 找人功能,Articuler.ai 團隊測試了產品效果的對比。超 15000 人的「AI 產品市集」社群!不錯過每一款有價值的 AI 應用。進群後,你有機會得到:最新、最值得關注的 AI 新品資訊;不定期贈送熱門新品的邀請碼、會員碼;最精準的AI產品曝光管道01當你想認識一個人的時候,AI 能幫你做什麼?Founder Park:介紹一下 Articuler.ai 在做什麼?申哲先:我們現在做的項目叫 Articuler.ai,現在的形態是一款職場社交的 AI 產品。Articuler 的意思是把零碎的事物用邏輯組織起來。我們希望組織散佈在網際網路各個角落的資訊,建構每個人的職業社交profile,幫助大家去連接、被發現,認識到本就應該相遇的人。我們希望能做到:第一,在不同目的下,幫使用者連接到正確的人;第二,在交流過程中,不用再猜,見面之前就能瞭解對方的偏好和觀點,實現更高效的撮合。Founder Park:聽起來像「約會」類產品。申哲先:Dating 領域我們做了很多研究,團隊也有人之前做過這個領域的產品。一開始的確思考過,到底約會軟體還有沒有機會?但實際上,使用者的約會習慣,尤其北美市場,這幾年已經發生了很大的變化。Match Group(旗下 Tinder、Hinge 等),這幾年股價掉了 70%,因為疫情之後,年輕人已經不想玩線上 dating 了。反而 Ins、Snapchat 這類社交媒體,承接了不少 dating 的需求,ins 就是年輕人的 profile,這些社交媒體上的個人資訊,更加真實更加全面,不像 Tinder 上面那麼刻意。另外,陌生人 dating 還是不如有一些間接關係的 dating。Fun fact,LinkedIn 也承接了一部分約會需求,因為上面有真實的教育和工作背景,有共同好友,也有真實照片和帖子。Founder Park:「查戶口」的步驟省了。申哲先:荷爾蒙驅動的約會,已經沒有太大的增量市場了。它不是一個真正的雙向匹配,更像「選美」,最受歡迎的人會吸引到所有的注意力,大部分中腰部的使用者匹配不上,這個場景的根本問題很難解決。但在大模型出來之後,它能對一個很複雜的使用者背景進行解析,理解使用者的偏好和背景。這種能力,用在主觀且荷爾蒙驅動的約會場景上其實不太適用——但它非常適合做目的性明確的匹配,比如嚴肅的婚戀,因為它看的指標更客觀,不是一些像長相這樣比較主觀的東西。如何能利用 AI,讓人與人之間在職業社交中實現更高效的匹配?這才是我們真正想用技術去解決的事情。我們在做一個像 Tinder 一樣的 LinkedIn,幫助使用者去連接到他本來就應該認識的人。過去平台理解一個人,是把他壓縮成一組標籤,這個過程損失了太多資訊模態。我們是把一個人的所有資料,包括簡歷、觀點、項目經歷等等,在做完 embedding 之後,完整地變成一個高維度的向量資料。我們做的匹配,是基於語義理解的、向量和向量之間的匹配,這樣能更準、更高效。articuler.ai的Playbook功能入口Founder Park:這個創業想法是什麼時候開始的?申哲先:最開始是 GPT-4o 即時語音互動的發佈。當時 OpenAI 那場發佈會,AI 對人的語氣、對交流背後的 context 都有很好的理解,能夠很絲滑地參與到人的對話中。這對我的啟發是,AI 能夠參與到社交中,它會不會能夠去解構人與人之間的交流和關係?另一個產品,Plaud,在這方面也對我們有所啟發。我個人非常喜歡 Plaud,它的切入點很妙,用硬體的「超級按鈕」取代了原本手機裡三四次操作才能做到的功能,掌握了線下資訊的入口。我經常基於 Plaud 的記錄來分析我開會/見客戶時的表現,比如我們跟投資人聊完,那裡聊得好,那裡不夠好,AI 都能分析出來。當時我們並沒有特別考慮硬體的方向,反而想到了一個比較好的高頻打低頻的點:發 Cold Email。(Cold Email:破冰信,指跟對方關係並不熟,但試圖得到對方幫助或讓對方留下印象的 email,是職業社交裡非常常見的手段。常見的 cold email,包括客戶或投資人的郵件、初次聯絡客戶的介紹信,以及求職自薦信等。)現在在 LinkedIn 上,每個月花 30 美金訂閱費,只能發 5 封 InMail(站內信)。cold email 如何寫,是個挺有趣的課題。去年我做使用者訪談,一個做醫療器械銷售的朋友給了我一個特別反直覺的觀點,他寫一封 cold email 平均要半小時。我問為什麼這麼久,他說:「在醫療器械的銷售圈子裡,大家其實都會有千絲萬縷的關係,你得找到這些關係。」比如你們是不是同一個導師,有沒有在同一個期刊發過論文。ChatGPT 可以幫你寫一封語言優美的郵件,但它找不到這些點。在實際場景裡,你寫得內容比你的語言要重要得多得多。於是我們做了一個小外掛,使用者在 LinkedIn 上點一下對方,我們就能結合雙方的背景,幫他寫一封高效的 cold email。這個產品跑得相當不錯,今年上半年月度環比增長達到了 110%。articuler.ai為申哲先生成給投資人的cold emailFounder Park:發 cold email 的時候,這個人已經「匹配」到了。申哲先:對,到了今年的 3 月份,我們又去做了第二次的使用者訪談。我沒有直接問問題,而是讓使用者投屏給我看,當他們不用我們的軟體時,是怎麼在 LinkedIn 上做 networking 或者跟人建立連接。當時我們很驚訝地發現,其實寫 cold email 不是第一步,是很靠後的步驟。他們在整個流程裡面 60% 到 70% 的時間是用來找人的。比如說,假設我是一個 founder,我想找個投資人。在 LinkedIn 上搜「VC」,會出來一大堆人,但你根本不知道他們投不投你的領域和階段。使用者需要一個一個點開看,甚至要跳出去用 Google 搜尋,尋找對方機構的投資階段、投資方向等等。所以我們當時在想,其實發 cold email 和找到對的人是同一件事。「如果你沒有找到對的人,你這個 cold email 寫得再好,對方都不可能給你回覆。」所以從今年 4 月底開始,我們做了現在的版本。我們希望能把全世界的人都變成一個高維度的向量資料,做到知己知彼。換句話說,全天下的白領我都認識了,你只需要告訴我你是誰、想幹嘛,我們能幫你找到最匹配、最相關的這個人。articuler.ai的社群搜尋入口02沒有被 LinkedIn 滿足的使用者需求Founder Park:職業社交這些年發生了什麼樣的變化?過去的模式是怎樣的?申哲先:我去年和一個快 50 歲的老前輩聊天,他是上世紀 90 年代就在華爾街做投行。那時候沒有網際網路,更沒有 LinkedIn。想進去投行,就得靠 networking。他當時在華爾街街頭站了兩個禮拜,在每個投行的樓下堵著人聊,做 coffee chat。在前網際網路時代,職業社交就是以線下為主。比如,投行在美國都有所謂的「目標學校」,校友之間有一個強紐帶,在面試之前,他們通過一些線下聚會和關係網路就已經相互認識了。這種是「強關係」,人與人之間的關係質量比較高。通過地理和活動的篩選,篩掉了很多人。但存在兩個問題:一是地理限制嚴重,二是資訊也嚴重不對稱。你不知道對方是誰,看不到對方的簡歷,只能通過在活動上半個小時的交流去相互瞭解。之後進入網際網路時代,就是 LinkedIn 的時代。它在早期只幹了一件事情:把每個人的簡歷搬到網上。簡歷其實是一種社交貨幣,是個人品牌的呈現。在 LinkedIn 上,我們可以看到你的第二度和第三度的人脈關係,它通過這個能打破地理和已有社交圈的限制,幫你找到更多和你相關的人。LinkedIn 就像是一個超級電話本或黃頁,你可以通過關鍵詞找到任何人。Founder Park:但 LinkedIn 似乎並沒有完全滿足使用者的需求,它存在什麼問題?申哲先:LinkedIn 最大的問題是,只解決了「展示」,沒有解決「匹配」。LinkedIn 現在的收入大頭來自 B 端,比如賣銷售線索的 Sales Navigator 和賣人頭的 LinkedIn Recruiter。它並不在意你想不想看對方給你發一條消息,它只是把你去當做一個這個整個人頭去賣出去。所以在「知己知彼」這件事情裡,LinkedIn 只做了一半,這也導致很多人打開 LinkedIn 之後,能看到很多廣告郵件、騷擾郵件,浪費時間,浪費注意力。這些垃圾資訊的雙方,產生不了價值交換。你並不想要對方 offer 的服務、產品、崗位,但系統並不知道這件事。使用者想要的可能是找到最合適的 10 個人,但 LinkedIn 通過把一個人強行壓縮成一組標籤,給你推出 1000 個滿足最低要求的人,你需要做大量的篩選工作。而且,在 LinkedIn 的職業社交中,我們都是被動地等待被連接,如果別人不知道搜尋我的關鍵詞,就永遠找不到我。所以在這樣的情況,我覺得 LinkedIn 更像是上一個時代的產物,像一個電話黃頁。但我們想做的是一個 Tinder 版的 LinkedIn,不僅能讓使用者展示自己的品牌,並且能幫助使用者去連接、被發現。Founder Park:你們在做的匹配和 LinkedIn 的「匹配」有什麼本質區別?申哲先:能讓我們產品變得更好的,肯定不是公開資料。你只用公開資料,講得粗俗一點,「其實就是在別人的資料庫上做了個互動層」。 瞭解使用者隱性的偏好,才是我們的「壁壘」。使用者在我們平台上的每一步互動,推薦人、建立連接、見面的準備、見面後的管理,我們能接收到使用者真實互動的反饋訊號。通過這個訊號,在我們下次做匹配時,就知道使用者的偏好性到底是什麼樣的。比如,我想找投資人,系統給我推了 15 個,但我最終只聯絡了其中 4 個。為什麼我選了這 4 個,沒選另外 11 個?這背後反映了我很多隱性的偏好,這些甚至是使用者自己都說不清楚的。這些互動資料會沉澱下來,讓我們的平台,越用越好用,推薦越來越準。而且這個資料是別人拿不到的。你可以把我們理解成一個關於白領的「大眾點評」,你每一次互動的反饋,都會成為你的一個社交標籤。articuler.ai的聯絡人狀態管理Founder Park:聽起來和推薦系統有點像,和傳統推薦系統的區別是什麼?申哲先:我們使用者的背景資訊更豐富。傳統的推薦,比如淘寶,它一開始其實不知道你是誰,需要你產生上百次購物行為後,才能大概猜出你的偏好。但我們不一樣,使用者一進來,我們就能知道 ta 的背景是什麼,通過我們的大盤資料,能推測出這類背景的使用者通常有那些共通的喜好,所以我們的冷啟動階段給使用者的推薦質量很好,使用者很滿意。其次是,我們在中間加了一層大模型,我們把使用者在產品上的互動作為強化訊號,比如 ta 選擇了和誰聯絡,拒絕了和誰聯絡,都通過 embedding 模型,加入到了使用者自己的向量化的 profile 中。Founder Park:在美國職場文化中,networking 是一個很普遍的需求嗎?申哲先:我本科的教授給我講過一句話,讓我特別難忘。他說:「Your network is your net worth.」在美國,networking 是一個非常常見的文化。比如我爸爸朋友的女兒,剛上大一,因為沒有提前聯絡社團的學長學姐做 coffee chat,結果開學後想加的社團名額都滿了。所以你會發現,networking 這件事情,本身就是人與人之間去充分瞭解資訊、建立聯絡的方式。在美國的傳統職場文化裡面,這已經是一個很重要的文化組成部分了。從資料上看,美國社招中超過 85% 以上的工作在每個公司的官網都沒放出來,是通過人與人之間的推薦來拿到工作機會。我們今年上半年在美國這邊做了一些研究,訪談樣本有 200 多個人,主要是大廠員工和一些做專業服務(professional service)的白領,裡面超過 95% 的人都做過 networking 這件事情。LinkedIn 今年第一季度的 C 端訂閱收入已經突破 20 億美金了,年增速達到 50%。在一個滲透率 95% 的產品上還能有這樣的增長,是一件很恐怖的事情,說明這個需求非常強勁。使用者每月花 30 美金,核心就是為了能看到更多人的資料和傳送更多站內信,都是為了 networking。它的主要使用者是 18-35 歲的年輕人,佔比 75%,因為年輕人在一段工作中的平均在職時間越來越短,他們需要建立自己的職業社交形象,連接到關鍵的人和機會,同時能被別人發現。03從 LinkedIn 上長出來的產品Founder Park:在職業社交的線上化處理程序中,已經做好的是什麼?還沒做好的是什麼?申哲先:第一步被網際網路化的,其實是每個人的身份資訊。網際網路就是一張巨大的網,把人都連到一塊了。你可以在這個網上去找到所有的人。第二步出來,其實是在這個網上去加入更多模態的資訊。比如說,這個人發了帖子,這個人發了一些照片等等,它會讓一個人更加豐富起來。那站在 2025 年看這個事情,我們經過網際網路這麼幾十年的發展之後,你會發現每個人的社交身份是散佈在各個平台或者網際網路的各個角落裡的。那我們現在的問題是,如何把這些散佈在各個角落裡面的身份資訊充分利用,同時整合成一個更好用的新產品?我們認為,現在這個時代,使用者需要的不是「我要看見」,而是「我要一個結果」。我要的東西就是要跟一個關鍵的人產生連接、建立連接、發生關係。但是我們現在都只能看到他的帖子,只能去關注他,他不知道我是誰,也不知道跟我這個人之間有那些關係的互動。但不可否認,LinkedIn 是一個很值得尊敬的產品,因為但凡能起網路效應的產品都有著最強的「壁壘」,沒有之一。LinkedIn 現在有這個網路效應,所有人都加入這個網路了,你不加就享受不到。那我們能幹的是什麼?我們希望在我們的平台上去建立起小的「原子網路」。articuler.ai的社群首頁Founder Park:最開始做了一個基於 LinkedIn 的寫作 cold email 的外掛,當時是怎麼想的?申哲先:我們一開始的野心更大,想成為每個人的「超級通訊錄」或者「個人 CRM」。不管是 Notta 還是 Plaud,它們都是以「一場會議」為最小單元。但我們認為,你所有的會議、通話,最終都是和「人」有關係的。所以我們想做一個更上一層的東西,能沉澱所有互動,幫使用者維護關係網路。但這條路,我們在今年 3 月份的時候發現走歪了,有點往 CRM 偏得太多。我們研究了美國市場後發現,這個方向最終只能做 ToB,因為願意為個人關係管理付費的 ToC 使用者太少了。而且中國團隊,在美國做 ToB 銷售沒有優勢。我們當時選擇做 LinkedIn 的外掛,因為它是一個無法繞開的生態,在北美的白領中,LinkedIn 的滲透率高達 95%。在這樣的基礎上,完全沒有必要再去搞一個新的個人資料平台。Founder Park:這個外掛和你現在的產品是什麼關係?申哲先:原來那個外掛現在已經成了產品的二級功能。我們後來想明白了,在職業社交中,「匹配」才是價值最高的點,它應該是一切互動的入口。資料也證明了這一點,我們加上「找人」和推薦功能後,cold email 的回覆率從 6% 提升到了 12%-15%。Founder Park:直接翻了一倍,怎麼做到的?申哲先:最關鍵的一點是:我們幫你找的人,是對的人。在內容生成上,我們用了一套比較複雜的 Agent 框架。我們會輸入使用者和對方的背景資訊,包括公開的 profile、search agent 從全網找到的相關資訊,以及針對融資、銷售、求職等不同場景的 know-how。這裡包括針對不同場景判斷共同點的邏輯,以及長度限制。比如針對銷售場景,郵件內容就不能太長,150 字以內能讓對方感興趣。一個 Agent 負責生成草稿,然後第二個「審查員」Agent,會參考行業裡的 best practice 來給草稿打分。最後,還有第三個 Agent 會根據評分結果,再重寫一遍,保證最終產出的郵件質量。Founder Park:「找人」這個動作,怎麼通向一個更完善的產品?申哲先:「找人」只是我們冷啟動的方法,背後真正的邏輯是「匹配」。因為職業社交的本質是一個雙向關係,一個是主動地以某個目的為索引去找人;另一個是被動地等著被別人連接。所以,如果要做下一代的職業社交平台,它必須有兩層。第一層,新的內容分發網路,我們希望基於語義理解的向量匹配,來替代 LinkedIn 的關鍵詞分發;第二層,在這個網路上長出來的內容。每個使用者、每個人就是內容本身,我們要交付的是一個人與人之間真實的、雙向的連接。articuler.ai為申哲先推薦的投資人列表Founder Park:不只想做一個找人工具,而是想沉澱人與人之間真實的互動資料。申哲先:對。如果只是一個找人工具,它就停留在建立連接上。但我們希望能做一個平台,使用者可以主動連接別人,也能被別人發現。人與人之間互動的上下文也能在我們的平台上沉澱下來。天底下有新技術、有新產品,但天底下幾乎沒有新生意。我們做的不是一個新生意,而是一個撮合平台,底層是一個雙邊網路。我們的任務就是讓供需雙方的匹配更高效、更高品質。我們把整個流程拆分成四個階段,每一個環節 AI 都能交付價值:匹配: 把人和需求都變成高維度的向量資料,進行基於語義理解的匹配。建聯: 基於雙方的共同點和價值交換可能,用 AI 生成能讓對方感興趣的 cold email。見面前的準備:我們的 search agent 能全網抓取對方的最新動態和觀點,讓使用者在見面時有備而來。關係的維護:長期來看,通過沉澱使用者的互動記錄,我們可以瞭解關係狀態,並在合適的時機提醒使用者進行維護。比如 a16z 發了一篇關於 AI 社交的文章,我們的系統可能會提醒我:「嘿,你之前和誰聊過這個,要不要再聊一下?」04把「白領」看成一個高維度的向量資料Founder Park:剛才提到要把白領變成一個高維度的向量資料,怎麼理解?申哲先:我們最重要的任務是把一個人的資訊和背景做最全面的還原。現在每個人的職業身份資訊散佈在網際網路的各個角落,只看 LinkedIn 是不夠的。我們的資料來源分為兩部分,一是像 LinkedIn、Twitter、GitHub、Google Scholar 這樣的 public profile;二是我們做了一個 Search Agent,能抓取全網和這個人相關的動態,比如他發的帖子、所在公司的新聞、行業趨勢等等。在資料來源的選擇方面,我們更看重有效資訊的密度,會選擇一些職場屬性比較強的平台。拿到這些資訊後,我們用 embedding 模型把它變成一個高維度的向量,存在我們的向量資料庫裡。當使用者告訴我們他想找什麼樣的人時,他的需求也會被轉化成一個向量化的查詢(query),我們再去資料庫裡做基於語義理解的匹配。Founder Park:使用者散落在網際網路上的資料,你們是怎麼獲得的?申哲先:比想像的要簡單。美國沒有像微信那樣封閉的生態,資訊都是公開的。很多美國銷售都在用的一個方法是:見客戶前,把對方的「名字 + 公司名」扔到 Google 裡搜一下,能發現很多有意思的東西。這些能在公開網際網路上找到的痕跡,就是我們還原一個人的拼圖。舉個例子,我們最近在幫一個做無人叉車的中國公司找美國客戶。我們推給他的人,不僅僅是 title 符合,還能告訴他,根據新聞,這個人的公司最近剛買了一套倉儲自動化系統。說明他們對倉庫自動化已經有了很好的認知基礎,你現在去找他,就是事半功倍。如果我們只拿 LinkedIn 上他相關的 profile 資訊,是解析不到這一層的。articuler.ai推薦的無人叉車客戶(機器翻譯)Founder Park:LinkedIn 幾百萬的付費使用者,是你想切入的目標人群嗎?申哲先:是的。我們主要是在這群人裡再細分出兩類畫像。但我想先說一點,我們做獲客,不僅在意使用者增長,更在意的是使用者密度。因為我們不是一個單向的找人工具,是要促成雙向連接,平台上的使用者彼此之間就能直接匹配。基於這個觀點,我們現在只做兩群人:第一,是年輕白領,包括在校大學生和剛工作 1-5 年的人。他們想換工作、找導師,或者尋求職業發展,我們能幫他們撮合。年輕白領與在校大學生看到的社群首頁第二,是整個北美的創投圈。這裡有個很有趣的點:北美創投圈是沒有財務顧問(FA)的。所以創始人能聊到那個投資人,完全看他自己能聯絡到誰。我們做的是直接幫助這個圈子的供需兩側,做更好的匹配。北美創投圈使用者看到的社群首頁Founder Park:LinkedIn 現在也是一個社交媒體平台,使用者在上面消費別人發的東西。你們會像 LinkedIn 一樣鼓勵大家發 Post,用內容來輔助社交嗎?申哲先:Post現在不在我們的 roadmap 上。LinkedIn 做 Post,是因為它是一個展示個人職業「品牌」的平台,你發的內容是你品牌的一部分。但我們想做的是兩個人真實的連結。要不要做 post,就像 Sora 出來了,有必要專門去做一個 for AI-generated video 的抖音嗎?我幹嘛不在抖音上發呢?我們現在更想做的是一個「聚合器」。你但凡在任何平台發了和你職業相關的內容,我們把這個訊號捕捉到,它就會成為你個人資料(profile)裡的一個偏好性訊號。我們通過這些訊號,幫你匹配到更多你本該認識的人,去交付一個「連接」的結果,而不是再造一個內容消費的平台。Founder Park:你之前提到,最後要做的是社區?申哲先:對,雙向連接,一定會通向社區。現在從工具切入,是因為找人這個環節效率最低,目標是建立一個個小的「原子網路」。比如一個 MBA 項目的 700 多個學生,他們彼此之間有強烈的 networking 需求。我們可以把這些人組成一個社群,在裡面做精準匹配。一個線下活動、一個校友組織,都可以成為一個原子網路。當這樣的小社群越來越多,我們就可以把它們打散再重組,最終形成一個大的、流動的「社交網路」。我們甚至不需要這些人都註冊我們的平台。因為他們的公開資訊都在網上,我們可以主動給他們建立社群,比如「過去三年加入 Meta 的 CMU 校友」,然後用這個社群作為內容去吸引真正有需求的使用者。我們最近就在用這種方式做行銷郵件做了效率驗證,比如告訴創始人「我們平台有 72 個投資人上周剛投過你這個方向」,或者告訴投資人「昨天有 63 個創始人在找像你這樣的投資人」,他們就來了,轉化率很高。因為人其實只對與自己強相關的東西才感興趣。我們知道他的職業背景和 intention,我們是可以直接找到他感興趣的內容,我們先給他創造出來,然後給到他。05每個人都在做一件事:跟人建立關係Founder Park:介紹下你過往的經歷,創業前在做什麼?申哲先:本科在南加州大學(USC)讀數學。讀書時就在創業,當時做了一個量化模型,出發點是想把美國升學這套很玄幻的東西變得「可解釋」,可以根據使用者的背景給出對應的升學建議,在那個專業、那個學校有更高的錄取率。這個項目賺了錢,但它沒法規模化,需要靠人力交付。我當時最大的感觸是:這是一個現金流特別好的生意,但不是事業,因為它沒有辦法 scale up。如果 21 歲能做這事,31 歲、41 歲也能幹,那我現在就不應該幹這個。當時還是想創業,但沒見過好東西,肯定就做不出來好東西。所以我想去全世界最厲害的公司看看,我當時給自己的答案是做管理諮詢。我大三去了麥肯錫實習,幫頂尖的網際網路企業做戰略,但我發現管理諮詢太不落地,只出一個報告,浮於表面。畢業以後,我去做了投資,先後在兩家機構,從一家早期機構到一家覆蓋更全面的機構,也趕上了 GenAI 的這波浪潮,看了很多基模、infra 和應用層公司。投資人的工作本身就是跟人打交道。不光是我的老闆、同事,還有我投過的一些成長期創始人,大家每天都在幹一件事:跟人建立關係。不管是找下輪投資人、找客戶、招聘、找合作夥伴,無一例外都特別耗時間。在看項目的時候我就一直在想,AI 怎麼能讓我們的工作更簡單?怎麼給兩個人做一個更高效的撮合?於是慢慢有了創業的想法。Founder Park:回過頭來看,當初做投資有什麼可以做得更好的?申哲先:現在回頭看,我覺得在美國,很少有年輕人能做好早期投資人,是有道理的。因為做早期需要經驗,你再名校畢業,再聰明,你沒經驗、沒創過業,你沒有看過整個公司從成立一步一步走到上市,或者走到退出,或者是走向死亡的全過程,判斷不了。你看到的永遠是別人想讓你看到的最好的東西。我覺得做投資本質就是一個消除噪音、發現價值的過程,如果連事情的本質都不知道,很難做。Founder Park:創業以來,最重要的 learning 是什麼?申哲先:凡事都要有敬畏之心。創業之後我發現,一個公司能成功是因為各種各樣“不起眼”的事情堆積起來,而每件小事都有學問在。這一年來最大的領悟就是要把自己的過去“清零”,當作一個小學生來快速學習、快速試錯、快速迭代。創始人不能有ego,後面需要學習的事情有很多,這是一場自我的修行。 (Founder Park)